【揭開 Anthropic (Claude)】

100 億美元只是入場券?揭開 Anthropic (Claude) 恐怖的算力吞金黑洞與「去輝達化」陽謀!


要理解 Anthropic 的算力佈局,你必須先接受 AI 發展史上最殘酷的物理與經濟學鐵律:Scaling Laws(縮放定律)。只要你餵給模型的算力越多、數據越大,它就會無腦變聰明。這導致了 AI 競賽已經從「科學家的實驗室」,徹底淪為「華爾街的軍備競賽」。


核心震撼:從 10 億到 1000 億美元的「算力通膨」 Anthropic 的創辦人 Dario Amodei 曾在訪談中提出了一個讓整個矽谷倒吸一口涼氣的預言,而我們現在(2026 年)正處於這個預言的震央。


Dario Amodei 的算力通膨論: 「多年前,訓練一個模型只需要幾萬美金的學術預算。到了 2024 年,訓練頂級模型的硬體與能源成本大約是 10 億美元。而如果這個趨勢持續,到了 2026 至 2027 年,訓練單一一個前沿模型(Frontier Model)的成本,將會飆升到 100 億甚至 1000 億美元。」


這意味著什麼? 1000 億美元是什麼概念?這相當於建造兩到三艘最先進的核動力航空母艦!當算力成本達到這個量級時,這已經不再是「車庫新創公司」能玩的遊戲,而是「國家級基礎設施」的暴力對決。Anthropic 為了應對這個「千億美金黑洞」,被迫走向了一條與 OpenAI 完全不同的算力戰略。

下回,我們將為大家深入拆解


2026-04-15

發表評論

請先 登入註冊